home *** CD-ROM | disk | FTP | other *** search
/ Netware Super Library / Netware Super Library.iso / app_note / an006b / an006b.txt
Text File  |  1991-01-28  |  26KB  |  587 lines

  1. Novell NetWare and AT&T ISN
  2.  
  3.  Brian Howell
  4.  Consultant
  5.  Systems Engineering Division
  6.  
  7. Abstract:
  8.  
  9. This application note shows the relative performance of a NetWare network
  10. when compared to a NetWare network bridged by an AT&T  ISN.
  11.  
  12. Introduction
  13.  
  14. Purpose of Report
  15.  
  16. The purpose of this report is to show the relative performance of a Novell
  17. NetWare network when its distance and access capabilities are enhanced by
  18. the introduction of AT&T's Information Systems Network (ISN). 
  19.  
  20. To establish the compatibility of AT&T 802.3 packets and NetWare 802.3
  21. packets a preliminary test was conducted. NetWare network packets on an
  22. 802.3 network were passed to another NetWare network across an ISN
  23. containing two Ethernet Bridge Interface Modules (EBIMs.) 
  24.  
  25. Two Stages of Initial Testing
  26.  
  27. Initial testing was in two stages: first with one network workstation and
  28. then with five network workstations performing a variety of common network
  29. operations. These tests indicated that response time was significantly
  30. longer for one workstation than it was for five workstations when identical
  31. operations were performed. This result was opposite of what would be
  32. expected with a typical 802.3 Carrier Sense Multiple Access/Collision
  33. Detection (CSMA/CD) network. 
  34.  
  35. Subsequent Testing and Results
  36.  
  37. Subsequent testing indicated that poor performance of a single workstation
  38. was due to the inherent buffering design built into the EBIMs. In other
  39. words, the performance actually increased as traffic increased. When only
  40. one workstation was performing a given operation, the packets would be
  41. buffered or held up until the buffer was full. When the buffer was full it
  42. would transmit all of the buffered packets. When five workstations were all
  43. performing the identical operations, the buffers filled faster and there
  44. was less delay imposed by the ISN than when a single workstation was in
  45. use. The ramifications of this design mean only that data traffic and usage
  46. patterns should be given careful consideration when using an ISN to connect
  47. remote NetWare networks. Special attention should be given to the amount
  48. and type of operations that are being performed over the connections
  49. provided by the ISN. 
  50.  
  51. Description of the ISN
  52.  
  53. The Information Systems Network (ISN) is a networking product from AT&T
  54. that consists of virtual packet switching controllers and various
  55. communication modules (see Figure XX). The communication modules connect a
  56. wide variety of hosts, printers and communications resources. The network
  57. can be configured so that resources on the network can be shared by network
  58. users. Remote concentrators extend the packet controller to users beyond
  59. the reach of the packet controller by way of a fiber optic link or by
  60. leased lines.
  61.  
  62. Figure 1: ISN packet controller 
  63.  
  64. Packet Controller Connections
  65.  
  66. Packet controllers at different locations can be connected to create a wide
  67. area network (WAN). The packet controllers communicate through fiber optic
  68. links at 8.64 Mbit/s or through trunk modules that run at speeds of up to
  69. 2.048 Mbit/s. These trunk connections make communications possible across
  70. town or across the country (see Figure XX).
  71.  
  72. Figure 2: Multinode architecture 
  73.  
  74. Using AT&T's Premises Distribution System
  75.  
  76. The ISN uses AT&T's Premises Distribution System to distribute the network
  77. to the workstation. This system is based on twisted pair wiring, fiber
  78. optic links and modular cross-connect hardware. It makes possible a
  79. multitude of configuration options (see Figure XX).
  80.  
  81. Figure 3: Single node architecture 
  82.  
  83. Packet Description
  84.  
  85. The data transported on the ISN is broken into short packets containing a
  86. fixed number of bits. The packets contain source and destination address
  87. information that is appended to the data. When a user at a workstation (or
  88. endpoint) issues a call setup request to another endpoint or resource, the
  89. controller stores the addresses in memory. Once a call is in place, the
  90. packets arriving at the controller have their destination addresses
  91. replaced by the stored address and are then sent to their destination. The
  92. virtual, or switched, connection can be taken down by one of the users and
  93. the address is removed from memory. 
  94.  
  95. Contention and Transmit Bus
  96.  
  97. Contention for the transmit and receive buses that run at 8.64 Mbit/s, is
  98. handled by the contention bus that runs at 864 Kbit/s. Each module with a
  99. packet to send, sends a contention code of 18 bits to the contention bus.
  100. The code is compared with the codes of other contending modules. Based on
  101. the value of the contention code, one module is declared the winner and
  102. given exclusive access to the next available time slot on the transmit bus.
  103. The contention and transmit buses of the ISN are synchronized so that the
  104. contention bus carries a contention code in the same time that a data
  105. packet is transmitted by the transmit bus. Modules that lose contention for
  106. the bus back off and contend for the next available time slot. 
  107.  
  108. A round robin priority algorithm allows modules that have lost contention
  109. to raise their priority code until they win. In the ISN the short length
  110. and high speed (8.64 Mbit/s) of the transmit and receive buses makes the
  111. propagation delay shorter than the time that defines a single bit. The ISN
  112. is thus able to perfectly schedule access to the transmit bus. This
  113. technique permits a very high (80-90 percent) use of the backplane without
  114. any serious performance degradation. Both long and short messages are
  115. broken into a series of short packets that are interspersed in time on the
  116. backplane buses. By sending messages a little at a time, delay in buffering
  117. large messages is avoided. This results in much more efficient use of
  118. transmission facilities, and it allows for shorter delays in transmission
  119. times especially when multiple packet controllers are traversed.
  120.  
  121. Implementation
  122.  
  123. By implementing techniques described above, the ISN provides a high-speed
  124. and versatile network that will accommodate centralized as well as
  125. decentralized computing implementations. This maximizes the effectiveness
  126. of the computer and peripheral resources of an organization.
  127.  
  128.  
  129. Introduction to the EBIM
  130.  
  131. The Ethernet Bridge Interface Module (EBIM) is one of the many
  132. communications modules that can be placed in the ISN controller or ISN
  133. concentrators. Its purpose is to bridge separate Ethernet network segments.
  134. The module conforms to the IEEE 802.3 (Carrier Sense Multiple Access with
  135. Collision Detection) and Ethernet version 2 specifications. The EBIM
  136. implements only the lower two levels (Physical level and Data Link level)
  137. of the International Standards Organization's Open Systems Interconnect
  138. (OSI) model. Devices on bridged Ethernet networks must therefore use
  139. identical implementations of the higher level protocols.
  140.  
  141. Possible Connections
  142.  
  143. A maximum of nine EBIMs can be interconnected. Each EBIM has eight
  144. permanent virtual circuit connections. Since each PVC requires two
  145. connections, a total of 36 PVCs can be established. A total of 4,000 Media
  146. Access Control (MAC) addresses can be supported across all bridged
  147. networks. This limitation is imposed by limited memory space in the EBIM
  148. and not by the Ethernet networks.
  149.  
  150. Up to eight interconnected Ethernet networks make up an extended network.
  151. Five of the extended networks can be connected to allow a total of 40
  152. Ethernet networks to communicate with each other. However, the extended
  153. network configuration reduces the throughput because of the number of hops
  154. or bridges that the data must traverse in order to reach its destination.
  155.  
  156.  
  157. Test Configuration
  158.  
  159. AT&T ISN Configuration             Novell NetWare Configuration
  160.  
  161. AT&T ISN Model 60 E                File Server - Novell 386A
  162.  
  163. EBIM Firmware Level 2.0            Network Interface Card - NE1000
  164.  
  165. Software version 4.1.1             Operating System: SFT NetWare v2.12
  166.  
  167. Figure 4: Test configuration 1 
  168.  
  169. Test Descriptions
  170.  
  171. Packet Arrival Time
  172.  
  173. Packet arrival times were measured to show the impact of an ISN on the
  174. performance of a local network. It should be noted that the ISN is designed
  175. to take advantage of long distance communications facilities such as
  176. telephone trunk lines and fiber optic links. Because of the increased
  177. capabilities the ISN adds to a network, it is not expected to perform the
  178. same as a native CSMA/CD network. In order to assess the impact of the ISN,
  179. a test was made on the Novell network by transmitting a file from the file
  180. server to a workstation. A simple file copy was performed from the file
  181. server to the hard disk of the workstation. A network protocol analyzer was
  182. used to capture, record and measure the transmission. This was done with a
  183. Network General Sniffer and a Novell LANalyzer. The test was performed on
  184. one workstation and on five workstations. After taking the measurements on
  185. the native network, the tests were redone with the same file server and
  186. workstations with the ISN acting as a bridge between the file server and
  187. the worksations. Figure XX shows the packet arrival time distribution.
  188.  
  189. Master Test Battery
  190.  
  191. The master test battery is a series of 11 tests that consist of 11 of the
  192. most common network operations. The test is designed to perform a given
  193. operation as many times as it can in the space of the test duration (20
  194. seconds). The program counts how many times per second the operation was
  195. performed and displays a numeric value upon completion. Again, this test
  196. was run on the native network and then again on the network with the ISN
  197. bridging the file server and workstations. The master test results are
  198. shown in Figure XX.
  199.  
  200. Kbyte/s 
  201.  
  202. As an additional method of showing the impact the ISN has on the
  203. performance of the network, a protocol analyzer was used to take a reading
  204. of the data flowing on the network for the duration of the tests. In all
  205. cases the number shown indicates the peak load of traffic generated. The
  206. measurements were taken in unrestricted mode and noted all traffic,
  207. regardless of source or destination. Figure XX illustrates the measurements
  208. for each of the operations in the master test battery.
  209.  
  210. Packet Arrival Time Distribution
  211.  
  212. Explanation
  213.  
  214. The graph shown in Figure XX displays packet arrival times in milliseconds.
  215. It compares the percentage of the total number of packets sent and the
  216. number that arrived within a given time frame. The operation performed is a
  217. file transfer of a 25,184 byte file. The graph also contrasts the
  218. percentage difference for one workstation against that of five
  219. workstations.
  220.  
  221. Note: Appendix A lists a summary of the measurements.
  222.  
  223. Observations
  224.  
  225. Without the ISN both one and five workstations had almost 90 percent of the
  226. packets arrive within the first four milliseconds. When the same file was
  227. transmitted with one workstation over the ISN only 50 percent made it
  228. within the first four milliseconds. The other 50 percent arrived within 25
  229. to 29 milliseconds. When five workstations performed the file transfer, 50
  230. percent arrived in the first four milliseconds and 40 percent of the
  231. remaining packets arrived within the next five milliseconds, making
  232. approximately 90 percent that arrived within the first nine milliseconds.
  233.  
  234. Figure 5: Packet arrival time distribution 
  235.  
  236. Master Test Results
  237.  
  238. Explanation
  239.  
  240. The graph shown in Figure XX represents the number of operations per second
  241. performed for each of the eleven operations in the test battery. The chart
  242. shows the difference in the number of operations per second that can be
  243. performed with and without the ISN. The numbers are included for the tests
  244. using one workstation and five workstations. The graph represents the
  245. average of the five workstations and indicates a per workstation number of
  246. operations per second.
  247.  
  248. Observations  
  249.  
  250. In every operation except one, the single workstation without the ISN was
  251. able to accomplish the most operations per second. This is as expected.
  252. However, depending on the operation being executed, the difference in
  253. performance between one and five workstations is not as great when using
  254. the ISN as it is when the operations are performed on a local network
  255. without the ISN.
  256.  
  257. Figure 6: Master test results 
  258.  
  259. Kbyte/s
  260.  
  261. Explanation
  262.  
  263. Figure XX, Figure XX and Figure XX are graphs that show the number of
  264. Kbyte/s generated during the master test battery, performed first by one
  265. workstation and then by five workstations. The first two graphs show the
  266. difference in data traffic generated with and without the ISN. 
  267.  
  268. Observations
  269.  
  270. The following two graphs show the difference in the traffic generated when
  271. the traffic over the ISN is local rather than remote. The percentage of
  272. difference is not the same for one workstation as it is for five
  273. workstations.
  274.  
  275. Figure 7: Kbyte/s for one workstation 
  276.  
  277. Percentage of Kbyte/s
  278.  
  279. Explanation
  280.  
  281. In the following graph 100 percent is the number of Kbyte/s that can be
  282. generated on a native NetWare network without the ISN. (See configuration
  283. 1.) The chart compares the percentage of traffic that can be generated by
  284. one workstation and by five workstations during the master test battery on
  285. a network with the ISN. 
  286.  
  287. Observations
  288.  
  289. The first category listed is the average percentage difference for all of
  290. the operations executed by one workstation compared to the average
  291. difference of five workstations performing the same operations. The chart
  292. illustrates that one workstation connected remotely by the ISN can generate
  293. approximately 32 percent of the traffic that a workstation can generate on
  294. a local network. Five workstations can generate approximately 
  295. 54 percent of the data that the same workstations can generate on a local
  296. network.
  297.  
  298. Note: See Appendix A for a summary table of the number of Kbyte/s for each
  299. of the operations in the master test battery.
  300.  
  301. Figure 8: Percentage of Kbyte/s 
  302.  
  303. Average Operations Per Second
  304.  
  305. The following graph depicts the incremental changes in the performance
  306. curve created by adding additional workstations. The operation performed
  307. for this graph is the open/close file in multiple directories in the master
  308. test battery. The numbers will be different for each operation performed,
  309. but the basic curve of the graph will be the same.
  310.  
  311. Observations
  312.  
  313. The line depicting the performance curve of the operations performed on a
  314. network without the ISN follows the same curve that a typical CSMA/CD
  315. network follows. Initially, the degradation in performance is slight as
  316. workstations are added. As increasing numbers of workstations and traffic
  317. are added, the network reaches its saturation point and performance drops
  318. off dramatically.
  319.  
  320. The line showing the performance of the workstations on the ISN network
  321. illustrates that the curve generated by this network varies from typical
  322. CSMA/CD networks. An important point to note is that performance actually
  323. improves as workstations are added. This is true to a point at which the
  324. ISN network follows the same characteristics as a typical CSMA/CD network
  325. and performance drops off sharply. The reason performance improves is
  326. because the buffers in the EBIMs are not waiting as long to be filled when
  327. more workstations generate packets. 
  328.  
  329. Note: See Appendix A for the summary table of the master test battery
  330. results.
  331.  
  332. Figure 9: Performance curves 
  333.  
  334. Throughput Test
  335.  
  336. The throughput test was designed to measure the maximum amount of traffic
  337. the ISN is capable of handling.
  338.  
  339. The test was done by simulating a load on the network. During the test it
  340. was demonstrated that the ISN could consistently transport 950 Kbit/s each
  341. way. If that amount was exceeded, the packets were either discarded or the
  342. workstations could not get enough packets through to complete the operation
  343. and the application would time out. By tuning the traffic generated on the
  344. network, it was possible to determine the maximum amount of traffic that
  345. allowed the file transfers to complete. It was shown that the ISN is
  346. capable of a throughput of approximately 1.9 Mbit/s (950 Kbit/s in each
  347. direction). AT&T representatives say that for network planning purposes, a
  348. level of 1.5 to 1.7 Mbit/s should be expected.
  349.  
  350.  
  351. Conclusions
  352.  
  353. Based on the previously mentioned tests and measurements, the ISN proves to
  354. be a viable alternative for many network implementation applications.
  355. Because of the 182KB receive buffer and 192KB transmit buffer built into
  356. the EBIMs, the functional performance obtained at a low load level will
  357. seem inconsistent with the performance capabilities inherent in the EBIM
  358. design. In fact when the EBIMs are pushed to their maximum capacity, they
  359. approach the throughput levels on a native CSMA/CD network.
  360.  
  361. Based on these results, the ISN is a viable network alternative for
  362. extending Novell NetWare networks beyond the reach of existing media
  363. limitations. The ISN is another tool in the enterprise-wide implementation
  364. of NetWare networks. 
  365.  
  366.  
  367. Appendix A: Raw Data Tables
  368.  
  369. Packet Arrival Time Distribution
  370.  
  371. One workstation w/EBIM        One workstation w/o EBIM
  372.  
  373. ms   Packets                  ms   Packets
  374.  
  375.  
  376.  
  377. 0 - 4     84   51.53%         0 - 4     143  87.73%
  378.  
  379. 5 - 9     0    0.00%          5 - 9     3    1.84%
  380.  
  381. 10 - 14   0    0.00%          10 - 14   5    3.07%
  382.  
  383. 15 - 19   0    0.00%          15 - 19   8    4.91%
  384.  
  385. 20 - 24   0    0.00%          20 - 24   0    0.00%
  386.  
  387. 25 - 29   79   48.47%         25 - 29   0    0.00%
  388.  
  389. >30       0    0.00%          >30       4    2.45%
  390.  
  391.           163  100.00%             163  100.00%
  392.  
  393.  
  394.  
  395. Five workstations w/EBIM      Five workstations w/o EBIM
  396.  
  397. ms   Packets                  ms   Packets
  398.  
  399.  
  400.  
  401. 0 - 4     419  51.41%         0 - 4     735  90.18%
  402.  
  403. 5 - 9     321  39.39%         5 - 9     17   2.09%
  404.  
  405. 10 - 14   0    0.00%          10 - 14   29   3.56%
  406.  
  407. 15 - 19   42   5.15%          15 - 19   7    0.86%
  408.  
  409. 20 - 24   0    0.00%          20 - 24   8    0.98%
  410.  
  411. 25 - 29   32   3.93%          25 - 29   8    0.98%
  412.  
  413. >30       1    0.12%          >30       11   1.35%
  414.  
  415.           815  100.00%                  815  100.00%
  416.  
  417. Note: ms = milliseconds
  418.  
  419.  
  420. Kbyte/s Summary Table
  421.  
  422.                                    Five workstations   One workstation 
  423.  
  424. Open/close file - mult. directories     45   68             9    31
  425.  
  426. Open/close file - single directory      45   95             9    42
  427.  
  428. Small shared file random read           40   176            8    55
  429.  
  430. Large shared file random read           18   22             4    7
  431.  
  432. Private file 128KB seq. read            45   48             9    16
  433.  
  434. Private file 128KB random read          130  341            35   128
  435.  
  436. Large block file transfer               130  414            40   192
  437.  
  438. Create/write/close/delete               120  131            35   79
  439.  
  440. Record lock/unlock                      50   132            17   55
  441.  
  442. Directory search (*.*)                  50   131            13   50
  443.  
  444. Random directory search                 60   150            12   45
  445.  
  446.  
  447. File Xfer Test
  448.  
  449.                Local network                 Bridged network with ISN
  450.  
  451.                Seconds             AVG       Seconds             AVG
  452.  
  453. 1,205 Bytes    0.60   0.78  0.78   0.72      2.20   2.00   1.76  1.99
  454.  
  455. 5,079 Bytes    0.84   0.92  1.02   0.93      2.08   1.88   2.10  2.02
  456.  
  457. 10,752 Bytes   1.08   0.91  0.98   0.99      2.31   2.36   2.22  2.30
  458.  
  459. 25,184 Bytes   1.49   1.33  1.32   1.38      2.87   2.89   2.82  2.86
  460.  
  461. 50,176 Bytes   1.87   1.77  1.69   1.78      3.26   2.80   2.95  3.00
  462.  
  463. 108,048 Bytes  2.34   2.37  2.26   2.32      4.57   5.11   5.70  5.13
  464.  
  465. 214,705 Bytes  5.07   3.64  3.54   4.08     10.71   9.81   9.59 10.04
  466.  
  467.  
  468. Test Descriptions
  469.  
  470. A. Network Test Battery
  471.  
  472. The network test battery is a utility developed by Novell for benchmarking
  473. and measuring network performance. The battery is a series of commonly
  474. performed network operations. The name of each test describes the operation
  475. that is being performed. Each of the operations was performed for 20
  476. seconds except for tests eight and nine (the directory search tests), which
  477. were performed for a duration of 10 seconds each. The numeric value to the
  478. right of the tests indicates the number of operations per second that could
  479. be performed within the time frame of the test duration. Each of the
  480. individual tests is described in more detail below.
  481.  
  482. 1. Open/close file (multiple directories) (no disk activity)
  483.  
  484. This test measures the number of file opens and closes the file server can
  485. perform per second. The files opened are selected randomly within the four
  486. levels of subdirectories. Besides testing the speed at which the file
  487. server can do an open and close, this test also measures the time it takes
  488. the server to traverse the hierarchical directory structure.
  489.  
  490. 2. Open/close file (single directory) (no disk activity)
  491.  
  492. This test is the same as the open/close file test, except the files opened
  493. are confined to the highest level directory. Comparing the results of this
  494. test with the open/close file test illustrates the difference that
  495. traversing the hierarchical directory structure makes. This test focuses
  496. more on raw file open and close speeds.
  497.  
  498. 3. Small shared file random read (4KB) (no disk activity)
  499.  
  500. This test measures the software time required to perform disk read
  501. operations, excluding managing the disk channel. The requests are for only
  502. 1 byte of data, to minimize the packet size and the transfer time between
  503. the file server and network adapter. The file is shared so the workstation
  504. PC cannot do local buffering and must access the file server for every
  505. request. This test is the best measurement of how long it takes the
  506. operating system software to service a read request. As such, it is a
  507. measurement of software efficiency, excluding, as much as possible, the
  508. hardware I/O factor. Disk read is the most common file server request made.
  509.  
  510. 4. Large shared file random read (4MB) (requires disk activity)
  511.  
  512. This test measures the time it takes to randomly read a large database-
  513. type file. The requests are for only 1 byte of data, again to minimize the
  514. packet size and the transfer time between the file server and network
  515. adapter. Since the file is so large, only parts of it can be cached in the
  516. server RAM, and each request probably has to go to the hard disk.
  517.  
  518. 5. Create/write close/delete (requires disk activity)
  519.  
  520. This test measures the speed at which the file server can create and write
  521. to a new file, then close and delete the file. The write is a large 16KB
  522. request, similar to the large block file transfer test. This test is the
  523. most disk I/O intensive of all the tests. The elevator seeking and caching
  524. algorithms in the server make a difference with this test.
  525.  
  526. 6. Private file random read (128KB) (requires disk activity)
  527.  
  528. This test illustrates the problems of local caching by the PC. A private
  529. file is randomly read 64 bytes at a time. The MS Net-based operating
  530. systems will read more than 64 bytes around the request and cache it
  531. locally. However, the effort spent servicing the larger read is wasted,
  532. because the file accessing is random and extra data read will probably not
  533. be needed.
  534.  
  535. 7. Large block file transfer (16KB) (no disk activity)
  536.  
  537. This test measures the efficiency of the server in servicing large I/O
  538. requests. All test workstations issue 16KB read requests to the same file
  539. at the same offset. The MS Net- based servers will service this as one
  540. request; the NetWare-based servers will service it as 16 or 32 requests.
  541. This test also measures the efficiency of the server in transferring data
  542. to and from the network adapter.
  543.  
  544. 8. Directory search test (no disk activity)
  545.  
  546. This test measures the number of wild card directory searches the file
  547. server can perform per second. A search request can return several matching
  548. directory entries. The next search nexts do not have to make a request to
  549. the file server. NetWare does not return multiple directory entries per
  550. search request and does not cache directory entries in the local
  551. workstations.
  552.  
  553. 9. Random directory search (multiple directories) (no disk activity)
  554.  
  555. This test shows the speed at which a search for a specific directory entry
  556. can be performed. The test selects a random file within one of the four
  557. directory entries and searches for it. It also randomly selects files that
  558. do not exist to measure the time needed to discover that a file is not
  559. there.
  560.  
  561. 10. Record lock/unlock (no disk activity)
  562.  
  563. This benchmark tests the speed at which the file server can lock and unlock
  564. records. A single physical record is locked and unlocked by the
  565. workstation. 
  566.  
  567. The file copy test consists of a NetWare copy (NCOPY) performed from a
  568. NetWare drive on the file server to the local hard drive of the
  569. workstation. Two files of significantly different sizes are used. The file
  570. copy is timed from when the enter key is pressed to execute the command
  571. until the workstation reports that the file is copied. The copies are
  572. performed five consecutive times and the averages are listed.
  573.  
  574. C. Performance Test
  575.  
  576. The performance test is designed by Novell to measure true data throughput
  577. or performance of a network. This test is completely end-to-end at the
  578. application layer of the ISO model. The test is an application that sends
  579. data to the file server and back as fast as the hardware allows. The
  580. numeric value measures the actual data throughput listed in Kbyte/s. This
  581. does not measure raw bandwidth or transmission capability, but data
  582. throughput capability as seen by a network user performing a network
  583. application. The actual operation performed by the test consisted of data
  584. writes of records 4,096 bytes long. The writes were performed in overlaid
  585. fashion-each record was written on top of the previous record. 
  586.  
  587.